今天我們要來介紹一下,Loss function是做甚麼用的,並簡單介紹一些常用的分類Loss function。
損失函數(loss function)又叫做代價函數(cost function),是用來評估模型的預測值與真實值不一致的程度,也是神經網絡中優化的目標函數,神經網絡訓練或者優化的過程就是最小化損失函數的過程,損失函數越小,說明模型的預測值就越接近真實值,模型的健壯性也就越好。
原文網址:https://kknews.cc/code/9opor8j.html
從上面的簡介中我們知道,Loss function的作用就是用來評估模型是否強壯,假設今天Loss很大,那麼我們可以說這個模型是無法使用的模型。
在統計和決策理論中,常用的損失函數就是0-1損失函數,這個函數很簡單,當預測值與現實值相同,輸出0,反之輸出1。
因為Loss要越小越好,因此我們知道當預測值與現實值相同時,我們要給Loss一個小的數值,因此這邊設為0。
數學公式為:
其中在上式中,y是目標值(-1或是+1),f(x)為預測值(-1,1)之間。
SVM就是使用這個Loss function。
可以參考這篇剖析深度學習 (2):你知道Cross Entropy和KL Divergence代表什麼意義嗎?談機器學習裡的資訊理論
本質上也是一種對數損失函數,y為Ground Truth,a為實際的輸出,n為總樣本數量。
今天看了一些常用的分類Loss function,並了解它們的主要作用。
深度學習入門教程:常見的損失函數大全
Loss function
常见的损失函数(loss function)总结
凸函數和非凸函數---and why
5 Regression Loss Functions All Machine Learners Should Know